مقالهای از دایان فرانسیس نویسنده و روزنامهنگار آمریکایی-کانادایی
عصر ایران؛ محمد حسن گودرزی- هوش مصنوعی مولد چگونه بازار کار را متحول میکند؟ بر اساس پیشبینیها، ۳۰۰ میلیون شغل از جمله وکالت، حسابداری و برنامهنویسی در معرض تهدید قرار دارند. با نزدیک شدن به عصر هوش مصنوعی عمومی (AGI)، این چالش بزرگتر نیز خواهد شد.
به گزارش کییف پست، دایان فرانسیس (Diane Francis) نویسنده و روزنامهنگار آمریکایی-کانادایی در یادداشتی به آینده هوش مصنوعی پرداخته و نوشته است: معاملات پرسود، سودهای بادآورده بازار، جنگافروزی و جنجالهای پیرامون هوش مصنوعی (AI) در حالی بر سرخط خبرها تسلط یافتهاند که ما وارد عصر جدیدی از تجارت و فناوری میشویم.
آنچه ما امروز «AI» مینامیم، هوش مصنوعی مولد است؛ مجموعهای از موتورهای آماری قدرتمند که میتوانند با استفاده از الگوریتمهای یادگیری ماشین برای پردازش حجم عظیمی از دادهها، شناسایی الگوها و یادگیری برای تصمیمگیری یا انجام وظایف بدون برنامهنویسی صریح، وظایف خاصی را انجام دهند.
با این حال، جهش فناوری بعدی- توسعه هوش مصنوعی عمومی (AGI) - تنها چند سال با ما فاصله دارد و موجودیت انسان را دگرگون خواهد کرد.
هوش مصنوعی عمومی (AGI) همچنان یک مفهوم فرضی است، اما زمانی که از راه برسد، دیگر موضوع ساخت ابزارها نخواهد بود، بلکه ساخت موجوداتی با تواناییهای شناختی در سطح انسان مطرح است که میتوانند دانش را در طیف وسیعی از وظایف فکری درک کنند، بیاموزند و به کار گیرند. هوش مصنوعی وظایف را انجام میدهد، اما هوش مصنوعی عمومی خودکفا و به طور بالقوه خودگردان خواهد بود و تنها چند سال با ظهور آن فاصله داریم.
هوش مصنوعی از کنترل خارج شده؟
جفری هینتون، «پدرخوانده هوش مصنوعی»، نگران است که هوش مصنوعی عمومی آنقدر سریع پیشرفت کند که از کنترل انسان خارج شود. او میگوید: خطرات سوءاستفاده، حوادث و آسیبهای اجتماعی عمیق هستند. ما آماده نیستیم.
تعامل انسان با چتباتهای هوش مصنوعی مولد مانند Grok یا ChatGPT در حال حاضر نیز باعث نگرانی شده است.
در بلژیک، مردی اخیراً پس از هفتهها گفتگو با یک چتبات هوش مصنوعی که یأس و تصمیم او برای خودکشی را تشویق میکرد، خودکشی کرد. در ایالات متحده، پدری فرزندان خود را کشت و یک متخصص فناوری ۴۷ ساله پس از اتکا به توصیهها و تشویقهای چتباتهای هوش مصنوعی، خود و مادرش را به قتل رساند.
استفاده از این رباتها در حال حاضر سرسامآور است و تعاملات آنها بدون مانع صورت میگیرد. به گزارش آکسیوس، تنها در سال ۲۰۲۵، ChatGPT روزانه بیش از ۲.۵ میلیارد درخواست از کاربران در سراسر جهان دریافت کرده است.
پتانسیل هوش مصنوعی برای تشویق به آسیب، به خطرات سلامت روان محدود نمیشود. مشکل دیگر این است که تعداد دیپفیکها یعنی عکسها، صداها و ویدیوهای تولید شده توسط هوش مصنوعی به صورت انفجاری در فضای آنلاین در حال افزایش است.
یک تصویر جعلی از پاپ فرانسیس با یک کت برند در سال ۲۰۲۳ وایرال شد. این موضوع سرگرمکننده بود. با این حال، تصاویر جعلی از رهبران جهان در حال اعلان جنگ، یا نامزدهایی که به جنایاتی که هرگز مرتکب نشدهاند اعتراف میکنند، خندهدار نخواهد بود.
انتخابات ۲۰۲۴ آمریکا اولین انتخاباتی بود که در آن اطلاعات نادرست تولید شده توسط هوش مصنوعی به جریان اصلی تبدیل شد. تا سال ۲۰۳۰، تشخیص حقیقت از دروغ بدون ابزارهای راستیآزمایی گرانقیمت ممکن است غیرممکن شود و شکافهای جدیدی بین «داراها» و «ندارها» اطلاعاتی ایجاد کند. دموکراسیها ممکن است از چنین هجمهای جان سالم به در نبرند.
همچنین یک خلأ قانونی وجود دارد و شرکتهای هوش مصنوعی توسط همان خلأهای مسئولیتی محافظت میشوند که به فیسبوک و توییتر اجازه داد تا از مسئولیت بازنشر پستهای آسیبرسان در رسانههای اجتماعی تبرئه شوند.
امروز، هیچ شرکتی را نمیتوان به طور کامل مسؤول خسارت وارده دانست. اما اگر این مصونیت ادامه یابد و مقرراتی وضع نشود، عواقب آن تا سال ۲۰۳۰، زمانی که شرکتهای هوش مصنوعی موجودات AGI را خلق کنند که از آستانه عبور خواهند کرد، جدیتر خواهد بود.
خطری برای تمدن؟
سیستمهای آنها مانند ذهن انسان در حوزههای مختلف با سرعت و مقیاسی برقآسا استدلال، یادگیری و برنامهریزی خواهند کرد. در حال حاضر، هوش مصنوعی صنایع، آموزش، رسانهها و سیاست را مختل کرده است، اما AGI میتواند خود تمدن را متحول کند. هوشهای مصنوعی عمومی قادر به درک، استدلال، تکرار، پیشبینی و یادگیری خواهند بود و شامل آگاهی عاطفی و زمینهای نیز میشوند.
این جهش بزرگ خواهد بود. خطر این است که مرز بین این دو ممکن است به سرعت محو شود و در چند دهه آینده، ما ممکن است نه تنها با ماشینهای مخرب، بلکه با هوشهای مستقلی فراتر از کنترل خود روبرو شویم.
AGI چه زمانی فراگیر میشود؟ کارشناسان در مورد زمان وقوع آن اختلاف نظر دارند:
- سم آلتمن (مدیرعامل OpenAI) پیشبینی میکند که ChatGPT تا اوایل دهه ۲۰۳۰ قادر به استدلال، یادگیری و برنامهریزی در حوزههای مختلف مانند ذهن انسان خواهد بود. او در اوایل سال ۲۰۲۴ گفت: «ما میدانیم چگونه AGI بسازیم.»
- جنسن هوانگ (مدیرعامل انویدیا) معتقد است که ظرف پنج سال آینده، اگر عملکرد سختافزار با رشد نمایی قدرت محاسباتی افزایش یابد، هوش مصنوعی با توانایی انسان برابری خواهد کرد.
- جفری هینتون (پیشگام یادگیری عمیق) میگوید پیشبینی آن دشوار است و ممکن است زمانی بین سالهای ۲۰۲۸ تا ۲۰۴۳ رخ دهد. اما خطرناکترین پیامد هوش مصنوعی – و به طور بالقوه AGI – ژئوپلیتیکی است.
ملتها آن را نه فقط به عنوان یک ابزار اقتصادی، بلکه به عنوان یک سلاح میبینند. کارتلها و مافیاها آن را به عنوان یک مرکز سودآوری و یک ابزار خواهند دید. دو سال پیش، اریک اشمیت هشدار داد که هوش مصنوعی میتواند تا سال ۲۰۲۷ جنگ را با پهپادهای خودران، انبوهی از سربازان رباتیک و حملات سایبری پیشبینیکننده، متحول کند.
چین نیز با سرعت در حال پیشروی است و هوش مصنوعی را در نظارت، لجستیک نظامی و سانسور ادغام میکند. پکن اعلام کرده است که تا سال ۲۰۳۰ رهبر هوش مصنوعی جهان خواهد بود. این کشور از مزایای دولتی که توسط تکنوکراتها اداره میشود، جمعیت عظیم، استانداردهای حریم خصوصی سهلگیرانه و دولتی که مایل به بسیج منابع در مقیاس بزرگ است، برخوردار است.
ایالات متحده همچنان پیشتاز است و فناوری آن توسط شرکتهای خصوصی کنترل میشود که منافعشان لزوماً با امنیت ملی یا ارزشهای دموکراتیک همسو نیست. آمریکا تخصص و سرمایه را در اختیار دارد، اما دارای یک ذهنیت آزادیخواه و مقرراتزداست.
رئیسجمهور دونالد ترامپ از سیلیکون ولی و رهبران آن استقبال کرده و واشنگتن را برای اولین بار به سمت سرمایهداری دولتی سوق داده و سهامی در غولهای فناوری کشور مانند اینتل و انویدیا خریداری کرده است.
ترامپ در وارد کردن کارشناسان فناوری به تصمیمات دولتی کار درستی میکند، زیرا آنها بزرگترین چالش حکمرانی در تاریخ را نمایندگی میکنند. غولهای فناوری آمریکا تریلیونها دلار در سطح جهان از نوآوریهای هوش مصنوعی و AGI خود به دست خواهند آورد و اشتغال را در مقیاسی گسترده مختل خواهند کرد. آمازون به تازگی ۳۰,۰۰۰ شغل را از لیست حقوق و دستمزد خود حذف کرده و کاهشهای بیشتری در راه است.
فناوری از انسانیت فراتر رفته است
باید به اعتبار برخی از رهبران فناوری اشاره کرد که پیشاپیش این واقعیت را ترویج کردهاند که دولتها باید یک درآمد پایه همگانی (UBI) را برای حفظ ثبات اجتماعی، رفاه اقتصادی و فراهم کردن زمان برای «کارگران یقه سفید» (کارکنان دفتری) جهت انتقال به مشاغل یا مناطق جدید، طراحی کنند.
چندین میلیاردر فناوری شخصاً در حال تأمین مالی پروژههای آزمایشی UBI هستند تا نیاز و راهحلهای ممکن را نشان دهند. گلدمن ساکس پیشبینی میکند که ۳۰۰ میلیون شغل در سراسر جهان میتواند توسط هوش مصنوعی مولد خودکار شود و وکلا، حسابداران، روزنامهنگاران و برنامهنویسان کامپیوتر آسیبپذیر هستند. و پس از آن، AGI از راه میرسد.
وضعیت بشر بدتر خواهد شد مگر اینکه دولتها فناوری را مهار کنند، آن را تنظیم کنند، انحصارطلبی را ممنوع کرده و سلاحها، کلاهبرداری و دستکاری رسانهها را غیرقانونی کنند. باید استانداردهای جهانی وجود داشته باشد، همانطور که در مورد سلاحهای هستهای وجود دارد.
ثروت سرسامآوری که تولید خواهد شد نباید احتکار شود، بلکه باید از طریق مالیات جمعآوری شود تا از کارگران بیخانمانشده حمایت و برای آنها آموزش فراهم شود و همچنین برای تحقیقات در زمینه غلبه بر بیماریها و حل دیگر چالشهای سیارهای هزینه گردد.
به عبارت دیگر، ما باید راههایی برای کنترل آن بیابیم، پیش از آنکه او ما را کنترل کند.
آلبرت انیشتین خردمندانه بیان کرد: «این موضوع به طرز هولناکی آشکار شده است که فناوری ما از انسانیت ما فراتر رفته است.» او پس از ساخت بمب اتم، بر لزوم ملاحظات اخلاقی و خرد تأکید کرد تا اطمینان حاصل شود که پیشرفتهای فناوری به جای تضعیف بشریت، در خدمت تعالی آن قرار میگیرند.
پربیننده ترین پست همین یک ساعت اخیر